Steuerung der Teilprojekte Payroll und C&B zur Einhaltung von Budget, Zeit und ScopeSteuerung des eigenen Teams und des Kunden insbesondere mit Vorlage von Best Practice Ansätzen insbesondere bei der Definition der AnforderungenIdentifikation aller Abhängigkeiten zu anderen Teilprojekten und deren Berücksichtigung in der Planung und Umsetzung Expertenwissen in Payroll, Schnittstelle zu FICO und BehördenkommunikationExpertenwissen in Schemen und RegelnSehr gute HCM Kenntnisse inkl technischer Kenntnisse der Datenmodelle in HCM und SFExpertenwissen (fachlich und technisch) in C&B und ERA Leistungsbeurteilung, Alterssicherung und Nachteilsausgleich mit Lösungen in der H4S4 Systemumgebung (nicht SF)Erfahrung im (Teil-) ProjektmanagementErfahrung in der Führung eines komplexen KundenErfahrung in der agilen Projektvorgehensweise Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenBetreuung im gesamten Bewerbungsprozess Ihr Kontakt Referenznummer 863714/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
B. RDFlib, RDF4J, Apache Jena)Erfahrung im Datenengineering (ETL-Prozesse, Data Pipelines, z. B. RML, Kafka)Sicherer Umgang mit Datenbanken, Datenmodellierung und SQLErfahrung mit Qualitätssicherung, Validierung und Performance-Optimierung von Wissensgraphen (z.
Arbeiten mit Linux-basierten Betriebssystemen Teams anlernen und handlungsfähig machenKonzeption, Aufbau und Management von automatisierten Build- und Deployment-ProzessenAufbau und Management von Monitoring, Vulnerability-Scanning und Logging Lösung technischer und konzeptioneller HerausforderungenStetige Weiterentwicklung durch den Einsatz und die Evaluierung neuer TechnologienImplementierung von Tools aus der CNCF LandscapeAusbildung zum Fachinformatiker Anwendungsentwicklung und / oder Studium der Informatik oder vergleichbare QualifikationDeutsch fließend in Wort und Schrift (C1), Englischkenntnisse von VorteilMindestens 3 Jahre Berufserfahrung im Bereich DevOps oder vergleichbarer TätigkeitErste Erfahrung im Umgang mit einer der Public-Clouds (AWS, AZURE, GCP) Fundierte Kenntnisse mit Container-Technologien (Docker, Kubernetes/Openshift)Erfahrungen im gestalten von CI/CD Pipelines Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, dich mit deinen eigenen Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Wirtschaftsinformatik, Wirtschaftswissenschaften, aber auch andere denkbar)Mindestens 3 Jahre Berufserfahrung im Bereich Business-Analyse, Projektleitung, Product-Owner oder vergleichbareMehrjährige fundierte Erfahrungen im agilen Arbeitsumfeld mit Scrum u.a Sehr gute Fähigkeiten im Erheben, Verwalten und Pitchen von AnforderungenLangjährige Erfahrungen an der Schnittstelle zwischen Kunde und EntwicklungsteamDie Fähigkeit, unsere Kunden innovativ zu beratenSehr hohe und ausgeprägte KommunikationsfähigkeitInnovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit dich mit deinen eigenen Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Erfahrung mit relationalen und nicht-relationalen Datenbanken (SQL, No-SQL) Erfahrung mit ETL-Tools und -Frameworks wie Apache Spark, Apache NiFi oder ähnlichen Grundkenntnisse in Big Data-Technologien wie Hadoop, MongoDB, Graph Datenbanken und Vector Datenbanken Kommunikationsfähigkeit, Analytisches Denken, Selbstständigkeit Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Snowflake, GCP BigQuery, Azure Synapse) mit.Du hast ein starkes Verständnis von ETL/ELT-Prozessen und Cloud-Architekturen sowie sehr gute Erfahrung in SQL, idealerweise in der Automatisierung und Optimierung von Datenprozessen.Bestenfalls bringst Du Zertifizierungen im Bereich Data Vault 2.0 oder 2.1 mit.Idealerweise kannst Du Ende zu Ende von der lokalen Entwicklung bis hin zum Cloud-Deployment und Monitoring tätig sein und bereits komplexe Cloud-native Software entwickelt und betrieben Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
-DeliveryTeamfähigkeit, Leistungs- und Lernbereitschaft verbunden mit dem Willen und der Geduld dein Wissen und deine Erfahrung weiterzugebenInnovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit dich mit deinen eigenen Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Das bringst du mit Du hast ein abgeschlossenes Studium oder eine Ausbildung im IT-Bereich und verfügst über einen starken technischen Background. Mit deiner mehrjährigen Erfahrung in der Entwicklung und Architektur moderner Softwarelösungen sowie deiner analytischen Denkweise findest du effiziente Lösungen für komplexe Herausforderungen.
Architektur-Design: Du konzipierst und implementierst moderne Datenplattform-Architekturen in der Cloud auf AWS, Azure oder GCP mit Fokus auf Snowflake.Data Engineering: Du entwickelst modulare und testbare Transformations-Pipelines mit dbt und arbeitest nach Best Practices wie Versionierung, CI/CD und automatisierten Tests.Datenmodellierung: Du erstellst Datenmodelle nach Data Vault 2.0, Star-Schema oder vergleichbaren Modellierungstechniken zur strukturierten Abbildung fachlicher Anforderungen.End-to-End Orchestrierung: Du integrierst Ingestion-Tools wie Fivetran oder Airbyte und stellst die Workflow-Orchestrierung mit Airflow oder Dagster sicher.Consulting und Coaching: Du berätst Kunden bei der Auswahl geeigneter Komponenten und begleitest die Migration von Legacy-Systemen in die Cloud.Qualitätssicherung: Du stellst durch automatisierte Datenqualitätsprüfungen und klare Governance-Strukturen eine hohe Datenverlässlichkeit sicher. Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Das bringst du mit Berufserfahrung und Ausbildung: Du verfügst über mindestens 6–8 Jahre einschlägige Berufserfahrung im Datenbankumfeld sowie ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation. PostgreSQL Architektur: Du bringst sehr fundierte Erfahrung in Installation, Administration, Konfiguration und Architektur von PostgreSQL-Datenbanken inklusive Performance-Tuning mit. Hochverfügbarkeit und Backup: Du hast praktische Erfahrung mit HA-Lösungen wie Streaming Replication, Patroni oder PgBouncer sowie mit Backup-Tools wie pgBackRest, Barman oder EDB BART.